Wav2vec2 Xlsr 53 Tamil
Apache-2.0
facebook/wav2vec2 - large - xlsr - 53モデルをベースに微調整したタミル語音声認識モデルで、Common Voiceタミル語データセットで訓練されました。
音声認識 その他
W
anuragshas
64
0
Wav2vec2 Large Xlsr Bengali
facebook/wav2vec2-large-xlsr - 53をベースに微調整されたベンガル語自動音声認識モデルで、OpenSLRデータセットの約4万件の音声データで訓練されています。
音声認識 その他
W
arijitx
758
6
Wav2vec2 Large Xlsr Arabic
Apache-2.0
アラビア語音声認識に対して微調整されたWav2Vec2 - Large - XLSR - 53大規模モデルで、Common VoiceとArabic Speech Corpusデータセットを基に訓練されました。
音声認識 アラビア語
W
mohammed
51
3
Wav2vec2 Large Xlsr Kn
Apache-2.0
これはFacebookのwav2vec2-large-xlsr-53モデルをカンナダ語で微調整した自動音声認識(ASR)モデルで、OpenSLR SLR79データセットを使用して訓練されています。
音声認識 その他
W
amoghsgopadi
2,200
1
Wav2vec2 Large Xlsr 53 Greek
Apache-2.0
これはギリシャ語音声認識タスクに対して微調整されたXLSR - 53大規模モデルで、facebook/wav2vec2-large-xlsr-53モデルをベースに、Common Voice 6.1とCSS10データセットを使用して訓練されました。
音声認識 その他
W
jonatasgrosman
130.81k
1
Wav2vec2 Large Xlsr 53 Estonian
Apache-2.0
FacebookのXLSR - 53大規模モデルを微調整したエストニア語音声認識モデルで、一般的な音声データセットで30.74%の単語誤り率を達成しました。
音声認識 その他
W
anton-l
3,259
0
Wav2vec2 Large Xlsr 53 Sah CV8
Apache-2.0
facebook/wav2vec2-large-xlsr-53をベースに、汎用音声ヤクート語データセットで微調整した音声認識モデル
音声認識
Transformers その他

W
emre
19
0
Wav2vec2 Large Xlsr 53 Spanish
Apache-2.0
facebook/wav2vec2-large-xlsr-53モデルを基に微調整されたスペイン語音声認識モデルで、Common Voice 6.1スペイン語データセットで訓練されました。
音声認識 スペイン語
W
jonatasgrosman
46.28k
30
Wav2vec2 Large Xlsr 53 Arabic
Apache-2.0
facebook/wav2vec2-large-xlsr - 53をベースに微調整されたアラビア語音声認識モデルで、Common Voiceとアラビア語音声コーパスで訓練されました。
音声認識 アラビア語
W
jonatasgrosman
2.3M
37
Wav2vec2 Xlsr 53 Rm Vallader With Lm
Apache-2.0
wav2vec2 - xlsr - 53をベースにした、言語モデルを搭載したロマンシュ語ヴァラディア方言の音声認識モデル
音声認識
Transformers

W
anuragshas
16
0
Wav2vec2 Large Xlsr 53 Swedish
Apache-2.0
facebook/wav2vec2-large-xlsr - 53フレームワークに基づいて微調整されたスウェーデン語自動音声認識モデルで、16kHzサンプリングレートの音声入力をサポートします。
音声認識 その他
W
KBLab
30.51k
3
Xlsr Maltese Wav2vec2
Apache-2.0
facebook/wav2vec2 - large - xlsr - 53をCommon Voiceマルタ語データセットで微調整した音声認識モデル
音声認識 その他
X
Akashpb13
150
1
Wav2vec2 Hausa2 Demo Colab
Apache-2.0
このモデルは、facebook/wav2vec2 - large - xlsr - 53をcommon_voiceデータセットで微調整したハウサ語音声認識モデルです。
音声認識
Transformers

W
Arnold
19
1
おすすめAIモデル
Llama 3 Typhoon V1.5x 8b Instruct
タイ語専用に設計された80億パラメータの命令モデルで、GPT-3.5-turboに匹敵する性能を持ち、アプリケーションシナリオ、検索拡張生成、制限付き生成、推論タスクを最適化
大規模言語モデル
Transformers 複数言語対応

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-TinyはSODAデータセットでトレーニングされた超小型対話モデルで、エッジデバイス推論向けに設計されており、体積はCosmo-3Bモデルの約2%です。
対話システム
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
RoBERTaアーキテクチャに基づく中国語抽出型QAモデルで、与えられたテキストから回答を抽出するタスクに適しています。
質問応答システム 中国語
R
uer
2,694
98